Machine Translation
# Tag:
- Source/KU_ML2
- Subject/AI/NLP
Machine Translation
기계 번역.
Convetional Seq2Seq model for machine translation
<START>와 같은 토큰이 들어오면 그 다음 단어를 예측하고, 그 단어는 또 다음 단어를 예측하기 위해 쓰이는 방식으로 번역이 이루어진다.
하지만, 이러한 방식으로는 초반에 들어왔었던 source input의 정보가 거의 잊혀지거나, 각 대응되는 단어에 맞게 집중되지 못한다는 단점이 존재했다.
Attention-based model for machine translation
위의 단점을 해결하기 위해 나온, Attention기반의 기계번역 model.
LSTM layer로 이루어진 encoder와 decoder는 그대로 유지하지만, decoder에 대응 되는 단어에 대해 Attention을 추가하여 더 적절하게 번역이 이루어지도록 한다.
attention weights를 통해, 각 source input이 대응되는 정도를 반영한다.
- : when is decoder, is decoder.
- : attention weights, Softmax를 이용해 계산된다.
- : context vector.
- : 다음 decoder의 output 단어를 예측한다.